“Vamos lá, cara. Tive uma noite difícil”, diz Jeffrey “o Cara” Lebowski. “E eu odeio pra caralho os Eagles, cara.”
Imediatamente após essa linha ser pronunciada no filme de 1998 dos irmãos Coen, O Grande Lebowski, o Cara é fisicamente retirado do táxi que o leva para casa de Malibu – a comunidade à beira-mar da qual ele também acabou de ser expulso – enquanto o sucesso de 1972 dos Eagles, “Peaceful Easy Feeling”, trina no rádio do carro. É um apelo que encapsula o conflito no cerne do filme: a velha Nova Esquerda à deriva e em retirada na América de George H. W. Bush.
Mas vai mais fundo que isso. A preferência do Cara pelo som sublime e autêntico do Creedence Clearwater Revival, cujo álbum ele perde quando o deck de fita de seu carro é roubado, estabelece uma clara distinção entre cultura boa e má. É o desejo hippie por transcendência – rock ‘n’ roll do final dos anos 60, neste caso, em vez de drogas – que faz com que ele odeie os Eagles de fácil audição, um grupo global de grande sucesso que definiu o som dos anos 70 tanto quanto o Creedence fez no final dos anos 60.
Não é difícil encontrar analogias no presente. Odiar Taylor Swift pode fazer com que você seja expulso de uma festa de despedida de solteira ou xingado na rua, se não for expulso de um táxi. Mas é mais difícil encontrar um equivalente direto ao Creedence. Isso se deve em parte ao fato de que a cultura avant-garde se fragmentou completamente em nossa era, de modo que toda a reivindicação de um gênero pop ser a essência do progresso estético é absurda de cara. Diga o que quiser sobre os fracassos da Nova Esquerda – pelo menos era uma ética, cara.
Este episódio de O Grande Lebowski vai além da queda dos hippies. A luta entre o pop e a vanguarda é tão antiga quanto o Iluminismo – provavelmente mais antiga. Há um constante ritmo de teorias que afirmam que o pop iria superar ou até mesmo eliminar a vanguarda desde os anos 1970; na verdade, essa afirmação é basicamente o que o filósofo Jean-François Lyotard e o estudioso literário Fredric Jameson chamaram de “pós-modernismo”. O ritmo só ficou mais alto à medida que a internet tomou conta de tudo. Afinal, há uma superfície democratizante no estabelecimento de uma plataforma global de publicação peer-to-peer. Adicione as redes sociais a essa mistura e, em seguida, o que estamos chamando de “IA generativa”, e é fácil ver por que a fé no Creedence parece tão antiquada.
Como o autor Chuck Klosterman argumentou recentemente, os anos 90 foram a última vez que alguém realmente achou que “vender-se” era ruim ou controverso. Do ponto de vista estético, todos nós caímos no que eu chamo de “buraco do streaming“, no qual os algoritmos exploram a popularidade em massa, nos prometendo resultados individualizados enquanto na verdade homogeneizam nosso conteúdo. Aqueles que se agarram à sua fé na vanguarda são como os humanos que escaparam da Matrix, reunindo-se em Sião para planejar a revolução que apenas um deus pode oferecer. (Não é por acaso que “Matrix” retrata raves como uma liberdade querida para os iluminados).
Essa divisão entre Creedence e os Eagles, entre a boa vanguarda e o pop ruim, na verdade coloca algumas questões profundas, quase metafísicas, sobre cultura. E agora, a explosão da IA generativa – e especialmente dos grandes modelos de linguagem, ou LLMs, que sustentam chatbots como o ChatGPT e o Bard – estão trazendo essa antiga questão estética de volta ao centro das atenções. A IA e a ameaça da automação cultural nos forçam a examinar a relação entre linguagem, interpretação e política ao longo de novas linhas.
A questão é, essencialmente: o que um marxista deveria acreditar sobre a automação da linguagem? As propostas de que o capitalismo se tornou “semiósico”, baseadas no pensamento do filósofo Félix Guattari, não são técnicas o suficiente sobre a linguagem para responder diretamente a essa pergunta, enquanto as filosofias marxistas da linguagem – como a de Raymond Williams ou Valentin Voloshinov – nunca integraram o mundo das máquinas. Qualquer resposta possível terá que combinar as ideias de um dos maiores pensadores do século XIX, Karl Marx, com as de um dos maiores intelectuais do século XX – Noam Chomsky.
Consciência e metabolismo
Com o interesse de Marx pela economia crescendo a cada dia, ele e Friedrich Engels passaram a maior parte da década de 1840 tentando elaborar uma filosofia materialista o mais rápido possível. Mas eles queriam que esse materialismo fosse dinâmico. Com isso, eles queriam dizer que não deveria ser uma filosofia baseada na existência real e prévia de átomos em movimento, mas sim na atividade dos seres humanos. Foi essa filosofia que precipitou o primeiro volume de “O Capital”, onde Marx lançou todas as suas fichas na noção de um “metabolismo entre o humano e a natureza”, definindo a vida humana como a transformação social do ambiente físico. Essa transformação também foi a origem da filosofia – seu primeiro princípio, seu motor propulsor e sua única fonte de legitimidade. A filosofia de Marx permanece, talvez, o único materialismo desse tipo até hoje.
Para Marx, o “metabolismo” forma o ponto de partida para a consciência. Através de nossa transformação da natureza, “entramos em relações” uns com os outros. Sempre que você ouvir marxistas falando sobre as relações de produção, é nisso que eles estão pensando. O capitalismo é um desses conjuntos de relações (um “modo de produção”), o único que conhecemos completamente por experiência. A consciência, pensava Marx, era um produto dessas relações de produção e, “em última instância”, era determinada por essa atividade material. Essa ideia foi transmitida como uma distinção frágil entre uma “base” de atividade econômica e uma “superestrutura” de direito, governo e cultura. O motivo de nos importarmos com isso é que em algum lugar dessa abstração reside a ideologia.
Cada compra que fazemos e cada hora que trabalhamos, pensa Marx, está envolvida por um truque que encobre o valor agregado aos produtos pela mão de obra. A consciência – e a linguagem – não são inocentes do modo de produção. Como ele e Engels colocaram em “A Ideologia Alemã”, o “espírito” humano é
afligido com a maldição de ser “sobrecarregado” com matéria, que aqui aparece na forma de camadas agitadas de ar, sons, em resumo, de linguagem. A linguagem é tão antiga quanto a consciência, a linguagem é uma consciência prática que também existe para outros humanos… A consciência é, portanto, desde o início, um produto social, e permanece assim enquanto os humanos existirem.
O que Marx está dizendo em seu estilo grandioso aqui é que a linguagem é o meio de produção – de nossa própria existência material no mundo. Não apenas movemos aleatoriamente coisas no mundo físico; criamos coisas intencionalmente, para nosso uso. E fazemos isso em conjunto com outros, não como indivíduos solitários.
A maneira usual de pensar sobre base e superestrutura é que uma determina a outra. Isso é evidente no ditado de que é “mais fácil imaginar o fim do mundo do que o fim do capitalismo”, o que explica grande parte da ficção distópica que ainda não consegue, mesmo no futuro mais sombrio, encontrar uma saída do lucro e do valor. O crítico Mark Fisher chamou isso de “realismo capitalista”, a ideia de que nossas narrativas e até nossas imaginações têm trilhos de segurança capitalistas. Mas quando se trata de linguagem – a própria coisa que estamos “automatizando” com a IA hoje – essa imagem não é suficiente.
Enquanto escrevo isso, a OpenAI, que administra o ChatGPT e o DALL·E, entre outros produtos de IA, acabou de ter um fim de semana estranho. Primeiro, o conselho demitiu o CEO, Sam Altman, apenas para voltar atrás e contratá-lo novamente. A briga foi sobre “alinhamento”, a ideia de que precisamos produzir uma “inteligência artificial geral” (AGI) que seja completamente incapaz de nos prejudicar. Se isso parece ficção científica, é porque é. Também é a ideologia que impulsiona grande parte da produção de IA hoje.
Até o momento da publicação, Altman havia sido restaurado ao seu cargo, e se você precisava de um exemplo de onde o materialismo de Marx seria útil, este é um caso muito bom. A briga na OpenAI aparentemente foi impulsionada por Ilya Sutskever, um engenheiro contratado para criar “super-alinhamento“, basicamente uma garantia à prova de balas de que a IA não sairá dos trilhos e levará à extinção humana. Se isso parece bizarro, é porque é. Mas também é um princípio fundamental da empresa, que começou como uma organização sem fins lucrativos dedicada a produzir uma AGI segura. A briga entre Altman e Sutskever não é sobre se eles podem alcançar a AGI, ou mesmo sobre se poderia ser um risco existencial para os humanos. É sobre qual caminho seguir para garantir que seja seguro. Chame isso de metafísica na diretoria executiva.
O que todos estão ignorando em toda a metafísica, no entanto, é que essa briga é sobre linguagem. É a capacidade da IA para as intricacias da linguagem humana que desencadeou a ascensão meteórica da OpenAI, começando com o GPT-2 em 2019. Essa é a condição para todos os outros sistemas que estamos tentando conectar à “IA generativa” – até mesmo o DALL·E funciona com pares de palavras e imagens. Os algoritmos de linguagem estão agora prontos para se tornarem a infraestrutura fundamental para praticamente toda a economia global. Não é surpresa que CEOs estejam presos nas mistificações de fantasias capitalistas sem saída, mesmo que essas fantasias em particular pareçam mais absurdas do que nunca. O que é mais surpreendente é que a Esquerda não está posicionada para entregar a crítica materialista e marxista da IA que deveria. Isso porque a Esquerda se recusou a levar a linguagem a sério, relegando-a a uma mera “superestrutura” e mantendo-a a uma boa distância do materialismo econômico.
Os marxistas abordaram esse problema de diferentes maneiras, geralmente apoiando a ideia de que a linguagem é material, dinâmica e situacional. Nenhuma das abordagens realmente entregou uma filosofia da linguagem que seja técnica o suficiente para lidar com o que a IA está fazendo agora, e isso significa que todos os caminhos para uma crítica de esquerda da automação da linguagem passam pelo linguista mais famoso de nossa era: Noam Chomsky.
Revolução cognitiva
Chomsky pode ser o maior intelectual vivo. Seu trabalho sobre linguagem não apenas transformou a linguística; é em parte responsável pelo que é chamado de “revolução cognitiva”, a mudança radical nas ciências que ocorreu ao longo da segunda metade do século XX. Até a década de 1990, quando o Cara ainda se agarrava à transcendência de uma fita do Creedence, a visão de Chomsky sobre a mente e a linguagem havia se tornado um fundamento científico em psicologia, linguística, filosofia, neurociência e no ainda jovem campo da inteligência artificial.
Isso não quer dizer que não fosse controverso: a rápida ascensão de Chomsky nos anos 1960 trouxe consigo brigas amargas. Mas elas ocorreram durante uma mudança geracional na qual a gramática generativa, o “dispositivo de aquisição de linguagem” que Chomsky afirmava ser encontrado em algum lugar do cérebro, e o “programa minimalista” para entender a linguagem tornaram-se símbolos de todo um grupo de ciências e sua nova abordagem. Essa abordagem é baseada em uma ampla analogia entre o cérebro (ou a mente) e o computador – a “teoria computacional da mente”. Chomsky ele próprio permaneceu ambivalente sobre essa analogia, enquanto permanecia profundamente comprometido com a investigação científica das propriedades da mente, que ele acredita serem únicas para nós através da linguagem.
Mas a carreira de Chomsky sempre foi realmente duas carreiras. Desde uma oposição precoce à Guerra do Vietnã – que, como ele apontou, a propaganda dos EUA consistentemente negava que fosse uma guerra ou uma invasão de fato – até suas campanhas contra os conflitos cruéis promovidos pelos Estados Unidos na América Central na década de 1980, Chomsky foi uma das poucas vozes de esquerda no discurso público americano ao longo de duas gerações. Ele alavancou sua vasta autoridade sobre linguagem e mente em uma presença singular no caos midiático de um império em ruínas. Ele acredita que uma sociedade tecnológica não tem motivo para restringir as forças fundamentalmente criativas de seus cidadãos individuais e que a associação livre sindicalizada – uma visão comumente chamada de anarcossindicalismo – removeria as repressões do estado e sua propaganda imperialista.
Quando eu era adolescente, lutando para entender primeiro o estranho triunfalismo da era Bill Clinton e depois a virada brutal após 11 de setembro, meu pai me deu livros de Howard Zinn e Chomsky para ler. Para mim, esses eram versículos após os quais quase tudo na mídia era mera propaganda, construída especificamente para obscurecer verdades sobre o império americano – verdades que um solitário Chomsky vinha gritando dos telhados há anos.
Avance mais três décadas até março de 2023, quando Chomsky e dois coautores publicaram um artigo de opinião no New York Times chamado “A Falsa Promessa do ChatGPT“. O que eles disseram lá, infelizmente, se resume a uma versão muito sofisticada de quanto o cara odeia os malditos Eagles.
Degradação da ciência, ética, linguagem e conhecimento
O artigo tacitamente reconhece que de fato há um problema político com a IA. Chomsky e seus coautores argumentam que a aprendizagem de máquina – a disciplina por trás da IA generativa e de outros algoritmos poderosos – “degradará nossa ciência e corromperá nossa ética incorporando em nossa tecnologia uma concepção fundamentalmente falha de linguagem e conhecimento”. Chomsky vem lutando contra essa concepção particular desde a década de 1950, então não é surpresa que ele pense que seja problemático que seja lançado comercialmente. É menos claro que sua mistura particular de ciência cognitiva e política possa realmente dar conta do que o ChatGPT e sistemas similares estão fazendo.
Não tenho certeza se é possível, por razões logísticas e legais, quantificar o quanto de dados – texto, imagem e também dados de rastreamento de todos os tipos – são agora produzidos ou influenciados por sistemas de IA. Mas é uma proporção muito maior do que você provavelmente pensa. Os LLMs estão sendo conectados à busca e a “assistentes pessoais”. A exploração de aplicativos desde contratação corporativa até caças a jato, passando por provas matemáticas e química, não diminuiu, mas sim acelerou.
Um artigo de opinião concorrente do Wall Street Journal, escrito pelo agora falecido Henry Kissinger – um inimigo de Chomsky de longa data – e coautores, argumentou que o ChatGPT era tão importante quanto a prensa móvel, com implicações igualmente abrangentes para políticas, internas e externas, e o status do conhecimento. De certa forma estranha, Chomsky concorda com essa avaliação, se não com suas sugestões. Porque a nova IA é um “motor estatístico pesado para correspondência de padrões” e não possui capacidade para a verdade ou a moral, segundo o artigo de Chomsky, ela é culturalmente perigosa. Kissinger recomenda que os formuladores de políticas se adiantem. Chomsky basicamente nega que algo significativo esteja acontecendo.
Isso é um problema, e acho que está localizado na frágil relação entre a linguística de Chomsky e sua política. Ele uma vez disse que “não consegue encontrar conexões intelectualmente satisfatórias entre esses dois domínios”, mas apenas conexões tênues. Mas ele divide entre o que chama de “problema de Platão” e “problema de Orwell”.
O problema de Platão é que nosso conhecimento ultrapassa nossa experiência. Como Chomsky observou por mais de seis décadas, as crianças aprendem gramática correta sem jamais serem expostas a todas as suas variações. Elas aprendem a inventar novas palavras e frases, e a entendê-las, muito antes que qualquer máquina pudesse. A aprendizagem humana parece acontecer por grandes saltos, não por passos de bebê. Platão pensava que os humanos tinham uma espécie de memória das formas puras de pensamento – bem, verdade e beleza – e Chomsky invoca essa ideia para descrever o que ele pensa que a linguagem realmente é.
O problema de Orwell é sobre o que o romancista chamou de “novafala”, a manipulação sistemática da linguagem e do significado pelo governo totalitário descrito em 1984. Chomsky usa a exclusão da noção de que os Estados Unidos invadiram o Vietnã para argumentar que os sistemas democráticos, através da manipulação da mídia, têm aparatos “geniais” de “controle do pensamento”. Essa conclusão é na verdade um passo além de Orwell, já que os governos totalitários usam a ameaça de violência para apoiar sua linguagem imposta. Binários falsos são frequentemente estabelecidos como narrativas na mídia, argumenta Chomsky, com o objetivo de “fabricar consentimento”, frase que ele empresta do famoso teórico de opinião pública Walter Lippmann. A mídia então “fixa os limites do que é possível pensar”, criando uma “caixa de ferramentas ideológica” que “forma a base da propaganda estatal”. Mas Chomsky argumenta que isso acontece porque é necessário para assegurar a reprodução do capitalismo – que, como eu argumentei anteriormente, é uma questão material e econômica – não porque a linguagem é essencialmente manipulativa.
O problema de Orwell é sobre o que o romancista chamou de “novafala”, a manipulação sistemática da linguagem e do significado pelo governo totalitário retratado em “1984”. Chomsky usa a exclusão da noção de que os Estados Unidos invadiram o Vietnã para argumentar que os sistemas democráticos, por meio da manipulação midiática, têm aparatos geniais de “controle do pensamento”. Essa conclusão é na verdade um passo além do de Orwell, já que os governos totalitários usam a ameaça de violência para respaldar sua linguagem imposta. Binários falsos são frequentemente estabelecidos como narrativas na mídia, argumenta Chomsky, com o objetivo de “fabricar consentimento”, uma frase que ele empresta do famoso teórico da opinião pública Walter Lippmann. A mídia “pode ser uma força impressionante quando mobilizada em apoio ao sistema de propaganda estatal”, escreve Chomsky.
O lema da distinção Platão-Orwell é “A propaganda é para a democracia como a violência é para o totalitarismo”. Esta é uma excelente descrição de como diferentes tipos de estados coagem seus cidadãos, mas como isso se relaciona com a linguagem? Chomsky não deixa isso claro, e eu não acho que ele possa. Ele está perdendo o fato de que a novafala é linguagem. É uma linguagem altamente arbitrária, reproduzível, sim — e seu contraparte democrático também é linguagem, apenas dentro de certos limites. Mas essas proteções quanto ao que pode ser dito são realmente criadas por algum grupo de especialistas em mídia? Como eles conseguem suprimir aquela genuína criatividade gramatical que todos nós possuímos inatamente?
Aqui está o problema: as máquinas de propaganda que Chomsky pensa fabricarem consentimento agora estão quase cem por cento dirigidas por IA. Não é um estado ou governo que está fazendo esse trabalho — é a capacidade de linguagem da IA, em uma escala cultural que simplesmente nunca vimos antes. Na tradição marxista, isso é chamado ideologia. A continuidade da produção e da cultura nunca foi mais literal. Agora temos máquinas que podem automatizar não apenas Taylor Swift (dedos cruzados), mas também o tipo de efeito supressivo que Chomsky localizou na mídia. As LLMs conectam o problema de Platão ao problema de Orwell. O resultado é um caos genuíno, porque não podemos dizer qual parte é linguagem e qual parte são apenas máquinas. Talvez a distinção nunca tenha sido clara desde o início.
O que está entre Platão e Orwell é a cultura, e com o surgimento da IA generativa, temos um problema de cultura. O perplexidade intelectual geral de 2023 não é apenas um problema de Chomsky. É uma tendência que temos de subestimar a cultura mesmo quando é a própria coisa que nos causa problemas. Podemos querer acreditar que a “criatividade humana” — um refrão constante na escrita de Chomsky — não é suscetível a técnicas estatísticas. Mas, embora faça sentido reservar julgamento para o avante-garde, acho que está claro que Taylor Swift realmente poderia ser uma IA, em parte porque produtos de mídia superproduzidos como sua música ou filmes da Marvel encontram um tipo de centro estatístico na vastidão da cultura — exatamente o que a IA generativa faz. Há uma escala insondavelmente enorme de produção de linguagem humana que fica entre a linguística formal e os tipos de perigo que Chomsky e Kissinger ambos diagnosticam. Os sistemas GPT simplesmente revelam essa escala, e não gostamos dos resultados. Mas não podemos nos dar ao luxo de ignorá-los.
“Algoritmos de linguagem estão prestes a se tornar a infraestrutura fundamental para virtualmente toda a economia global.”
De acordo com Chomsky, a IA em sua forma atual força correlações brutais entre conjuntos de dados. Isso é um processo fundamentalmente diferente do que os humanos fazem com a linguagem, que é criar explicações. Possuímos uma “gramática universal” que nos permite aprender com “quase elegância matemática”, onde esses programas aprendem línguas humanamente possíveis e “humanamente impossíveis” igualmente. Eles “negociam apenas em probabilidades que mudam ao longo do tempo”, desvinculadas de qualquer relação com a verdade, e — Chomsky enfatiza — são incapazes de gerar julgamentos morais.
Tudo isso é verdade. Especialmente as LLMs são alimentadas com enormes quantidades de texto, da ordem de um trilhão de palavras, uma quantidade verdadeiramente inimaginável de linguagem impressa. Elas então “aprendem” comprimindo os dados em padrões, usando um algoritmo extensivo, mas matematicamente simples. O ChatGPT que entrou em destaque no final de 2022 (desde então, foi atualizado muitas vezes) dividiu suas trilhões de palavras de treinamento em cerca de cinquenta mil “tokens”, principalmente palavras, mas também pequenos pedaços de palavras úteis para fazer a linguagem funcionar, como “-ing”.
O resultado inicial — após o “pré-treinamento”, que é para o que o “p” em GPT representa — é uma grade totalmente determinada, na qual cada unidade possui uma probabilidade de ocorrer após a que a precede. Se eu disser “comunista”, a probabilidade de “manifesto” aumenta, assim como “porco”. As LLMs reúnem um pequeno conjunto de prováveis próximas palavras e depois escaneiam o contexto para escolher qual colocar a seguir. Se você já conversou com um desses sistemas, sabe que ele produz, bem, bom inglês (e muitos, muitos outros idiomas também). De quase todas as perspectivas teóricas, incluindo a de Chomsky, isso simplesmente não deveria ser o caso.
“Ideias verdes sem cor dormem furiosamente”
Chomsky vem se opondo à captura estatística da linguagem há quase setenta anos. Vale a pena entender como sua análise funciona, porque isso nos mostra o que a IA está fazendo que força Platão e Orwell juntos.
Em 1957, Chomsky publicou “Estruturas Sintáticas”, um livro curto que remodelaria a linguística e a ciência cognitiva de forma mais ampla por duas gerações. Ele queria mostrar que a gramática de uma língua — o
que nos permite distinguir entre boas e más frases — era independente de outros fatores, incluindo os significados das palavras.
Ele apresentou seu caso com frases que se tornaram quase tão famosas quanto ele: “Ideias verdes sem cor dormem furiosamente” e “Furiosamente dormem ideias verdes sem cor”. A primeira frase é gramatical — não significa nada, mas é imediatamente reconhecível como uma frase em inglês. A segunda frase é igualmente sem sentido, mas também não é realmente uma frase. Você se atrapalha ao lê-la em voz alta. Algo não está certo.
Para Chomsky, o que estava errado era mais do que a ordem das palavras. Um alvo desse experimento de pensamento era Claude Shannon, o pai fundador da teoria da informação, que é amplamente considerada um dos principais fundamentos do universo digital. Shannon estava interessado em comunicação, que ele pensava ser o envio de informações ao longo de um canal para um receptor. Ele não se importava se o que era enviado era linguagem, ou sinais sem sentido, ou o que quer que fosse — tudo o que importava era acertar a estrutura daquilo. Ele usou a língua inglesa como cobaia para descobrir como fazer um canal seguro ao longo do qual a informação pudesse ser enviada com segurança. As fórmulas que ele inventou para esse propósito são a base de toda a comunicação digital hoje em dia.
Shannon também estava interessado em linguagem, mas de uma maneira diferente de Chomsky. Ele argumentou que se você tiver a letra “q” em uma página, tecnicamente poderia ter vinte e seis letras distintas a seguir (incluindo um espaço). Mas é extremamente provável que o “u” seja a letra subsequente. Essa ideia faz de Shannon o fundador intelectual do autocorretor — mas também da IA generativa. É uma abordagem estatística da linguagem, baseada puramente na frequência de letras ou palavras. As LLMs, como eu as descrevi acima, seguem essa ideia: encontram as frequências das palavras e as reproduzem. Shannon nunca inventou uma máquina que pudesse realmente gerar linguagem, mas estamos vivendo com os produtos de suas ideias.
Chomsky mirou diretamente em Shannon. Nenhuma máquina, ele sugeriu, realmente poderia distinguir essas duas frases uma da outra. A gramática inglesa não era apenas uma “alta ordem de aproximação estatística ao inglês”. Você precisa conhecer a gramática, não apenas prever palavras ou letras.
Em seu artigo de opinião de 2023, Chomsky usa um de seus exemplos de “Estruturas Sintáticas” de 1957, escrevendo que
porque esses programas não podem explicar as regras da sintaxe do inglês, por exemplo, eles muito bem podem prever, incorretamente, que “John é muito teimoso para falar com” significa que John é tão teimoso que não falará com alguém ou outro (em vez de que ele é tão teimoso que não pode ser convencido) … As explicações corretas da linguagem são complicadas e não podem ser aprendidas apenas marinhando em grandes dados.
Decidi ir à fonte:
Anônimo: o que significa essa frase? “john é muito teimoso para falar com”
ChatGPT: A frase “John é muito teimoso para falar com” sugere que John é muito resistente a mudar suas opiniões ou comportamento, tornando difícil ou frustrante engajar-se em uma conversa com ele. Isso implica que a teimosia de John é uma barreira para uma comunicação eficaz ou discussão porque ele pode não estar disposto a considerar diferentes perspectivas ou comprometer suas opiniões.
Para aqueles acompanhando em casa: Shannon (e Sam Altman): 1, Chomsky: 0.
Então, perguntei ao ChatGPT sobre ideias verdes sem cor, em ambas as versões. Ele me deu um pouco da história da boa frase, explicando a linguística de Chomsky em termos básicos, mas sólidos. Ele chamou a frase incorreta (“furiously sleep ideas green colorless”) de “combinação sem sentido” e rotulou o bate-papo como “solicitação incoerente, palavras aleatórias”. Com um pouco de provocação, ele reconheceu que a segunda frase era uma confusão da primeira e concluiu que a gramática “sozinha não garante uma comunicação significativa”. Isso é quase o oposto do ponto de Chomsky — mas também é verdade. Mais pontos para o ChatGPT.
“O aprendizado humano parece acontecer por grandes saltos, não por passos de bebê.“
Aqui está o problema. Nada do que a máquina produziu pode contar como evidência de qualquer forma. Ela conhece essas frases, ou a previsão estatística é apenas muito mais poderosa do que conseguíamos observar nas décadas de 1940 e 1950? Esse é o debate que está gerando a agitação na OpenAI. Se as respostas corretas saírem, como você pode negar que está lidando com inteligência?
O problema é que a própria pergunta está errada: a IA realmente está produzindo linguagem — mas não o tipo que nos diz como funcionam as mentes humanas. A metafísica da OpenAI não pode ser derrotada pelo framework de Chomsky, porque ele não consegue conectar sua visão da linguagem humana e sua análise da propaganda. O conceito ausente é a cultura.
“Máquinas de cultura”
Precisamos conceber a IA mais como as Eagles do que como Creedence, mais as estranhas faixas da cultura digital do que os funcionamentos internos da mente que a arte de vanguarda acaricia e inspira. Mas não é apenas Chomsky que odeia os Eagles. Todos nós odiamos.
Em agosto, jornalistas revelaram que as LLMs são treinadas com muitos livros, entre outras coisas. O conjunto de dados Books3 inclui centenas de milhares de livros, muitos protegidos por direitos autorais, com obras de William Shakespeare, Stephen King e Toni Morrison fazendo aparições proeminentes. Os autores foram rápidos em responder a essa revelação. A comediante Sarah Silverman está liderando um processo contra a OpenAI e o Meta. Margaret Atwood, mais conhecida por escrever O Conto da Aia, escreveu um artigo demolidor sobre o uso de romances pela IA. Stephen King projetou indiferença, dizendo que não achava que a IA seria capaz de fazer o que ele faz tão cedo. Mas o ponto não é se a IA é capaz de escrever livros. O ponto é que a IA são livros.
Até os cientistas cognitivos reconheceram que as LLMs são “máquinas culturais“. Mas o framework da ciência cognitiva, incluindo a influência ainda palpável de Chomsky, domina nossa compreensão desses algoritmos cruciais. Enquanto isso for verdade, não seremos capazes de construir uma política de esquerda para a era da IA.
“As máquinas de propaganda que Chomsky pensa fabricarem consentimento agora estão quase cem por cento dirigidas por IA.”
As teorias cognitivas da IA perderam o ponto maior. As teorias não acompanharam os grandes dados e a computação maciça necessária para realizar a inteligência artificial. A convicção básica de Marx sobre a linguagem fornece um ponto de partida para construir uma compreensão alternativa que conecte linguagem e política, como essas máquinas realmente fazem em tempo real. Mas, até agora, a teoria cultural marxista não prestou muita atenção ao problema que Chomsky coloca.
Damos como certo que as obras de arte se constroem de alguma forma umas sobre as outras. Isso pode ser mais óbvio na televisão, ou em franquias. Você não pode entender Vingadores: Ultimato se não viu todos os prelúdios componentes (eu tentei uma vez, e foi… terrível). Mas não é apenas dentro de universos ficcionais que isso acontece. O estilo de um filme, o sabor de um romance — esses são efeitos em larga escala em comparação com as frases e tomadas que os compõem. Mesmo na linguagem cotidiana, o tipo que usamos para nos organizar como sociedade produtiva, não apenas olhamos para palavras individuais o tempo todo. A conversa de longa duração é a norma, em que um relacionamento real está em jogo. Casais brigam sobre o significado implícito de maneiras difíceis de desembaraçar. Chefes demitem e promovem trabalhadores por movimentos indiretos que fazem na comunicação, não apenas por “desempenho”. Tudo isso desempenha um papel, como Marx apontou, nas relações de produção.
A forma como a produção é organizada é o tema do primeiro volume do O Capital, de onde uma grande parte é dedicada à fábrica de máquinas. Marx argumenta que máquinas e trabalhadores são postos uns contra os outros em um jogo de soma zero, marginalizando o trabalho ao transformá-lo no ajuste de botões e knobs, cuidando de máquinas. Pense no autocaixa do supermercado — alguém ainda tem que estar lá, mas são necessários radicalmente menos trabalhadores, e eles estão lá principalmente para evitar furtos e ajudar com falhas inevitáveis na máquina. Marx pensava que as máquinas cumpriam a missão do capital: dominar e subsumir completamente o trabalho sob seu controle. A fábrica é uma única máquina; os trabalhadores são apenas partes orgânicas, vivas da máquina.
Mas a fábrica ainda precisa ser organizada usando a linguagem, então as relações dos trabalhadores com os chefes, e a organização que a administração executa — basicamente toda a empresa — ainda tem esse meio totalmente humano como seu coração pulsante. Isso é o que poderia mudar com a automação da linguagem.
As tecnologias digitais tornaram a fábrica unificada parte de um sistema global de máquinas. Esse sistema é mantido unido por dados, conectando cadeias de suprimentos, pontos de venda, fábricas e praticamente todos os consumidores na Terra. Esse sistema de dados se tornou uma condição do capitalismo contemporâneo. Mas a comunicação ainda ocorreu entre humanos ao longo das cadeias de suprimentos e nas trincheiras do capital global. As LLMs, dependendo de como são implantadas agora — o que ninguém ainda pode saber — automatizam esse meio geral da produção e troca global. Elas levam a linguagem que Chomsky pensa que só pode existir no profundo interior da mente humana e a conectam à rede de capital global inimaginavelmente complexa. Se implantarmos geração cultural nesse espaço, poderíamos perder de vista — não apenas o controle — das maquinações do capital.
Tudo isso para dizer que a filosofia da linguagem é mais urgente para a esquerda do que nunca. A análise da cultura agora precisa entrar nessa imagem — a escala e os efeitos da linguagem no mundo automatizado não podem ser declarados corretamente sem ela. Tem que ser entendido que a cultura não é mais apenas uma “superestrutura” mas os trilhos sobre os quais o capital é administrado.
Em uma entrevista em 2012, Chomsky disse que “se uma molécula ficar muito grande, [os físicos] a dão para os químicos”. E então, quando fica muito grande para eles, eles a passam para os biólogos, depois para os psicólogos, até que “finalmente acaba nas mãos dos críticos literários”. A IA tornou essa piada literal — e a vastidão da linguagem digital é a dobradiça sobre a qual a crítica ao capitalismo gira na era da IA.
Sobre os autores
Leif Weatherby
é professor assistente de alemão na Universidade de Nova York e autor de Transplanting the Metaphysical Organ. Seus textos foram publicados em Viewpoint, Los Angeles Review of Books e Infernal Machine, que ele coedita.